HDFS优化操作

您所在的位置:网站首页 hdfs rebalance 时间 HDFS优化操作

HDFS优化操作

2024-07-03 19:42| 来源: 网络整理| 查看: 265

目录

一、HDFS的多目录操作

1.NameNode多目录的配置

2.DataNode多目录配置

3.集群数据均衡之磁盘间数据均衡

二、HDFS集群的扩容与缩容

1.添加白名单

2.添加新服务器

3.服务器间数据均衡

4.黑名单退役服务器

三、HDFS故障的排除

1.NameNode故障处理

2.集群安全模式&磁盘修复

一、HDFS的多目录操作 1.NameNode多目录的配置

        a.在每台服务器中,NameNode的本地目录都可以配置多个,并且每个目录存储的内容相同

        b.配置操作

(1)在hdfs-site.xml文件中添加如下内容

    dfs.namenode.name.dir file://${hadoop.tmp.dir}/dfs/name1,file://${hadoop.tmp.dir}/dfs/name2

(2)停止集群,删除三台节点的data和logs中所有数据。

[example@hadoop102 hadoop-3.1.3]$ rm -rf data/ logs/ [example@hadoop103 hadoop-3.1.3]$ rm -rf data/ logs/ [example@hadoop104 hadoop-3.1.3]$ rm -rf data/ logs/

(3)格式化集群并启动。

[example@hadoop102 hadoop-3.1.3]$ bin/hdfs namenode -format [example@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh

c.运行结果

[example@hadoop102 dfs]$ ll 总用量 12 drwx------. 3 example example 4096 12月 11 08:03 data drwxrwxr-x. 3 example example 4096 12月 11 08:03 name1 drwxrwxr-x. 3 example example 4096 12月 11 08:03 name2

        注:1.name1与name2里面的内容完全相同

2.在配置xml文件后。由于每台服务器节点的磁盘情况不同,因此可以不分发

2.DataNode多目录配置

        a.DataNode可以配置成多个目录,每个目录存储的数据不一样

        b.具体操作

在hdfs-site.xml文件中添加如下内容

    dfs.datanode.data.dir   file://${hadoop.tmp.dir}/dfs/data1,file://${hadoop.tmp.dir}/dfs/data2

c.结果

[example@hadoop102 dfs]$ ll 总用量 12 drwx------. 3 example example 4096 4月   4 14:22 data1 drwx------. 3 example example 4096 4月   4 14:22 data2 drwxrwxr-x. 3 example example 4096 12月 11 08:03 name1 drwxrwxr-x. 3 example example 4096 12月 11 08:03 name2

d.向集群上传一个文件,再次观察两个文件夹里面的内容发现不一致

[example@hadoop102 hadoop-3.1.3]$ hadoop fs -put wcinput/word.txt /

        注:data1和data2的存放的内容不一样

3.集群数据均衡之磁盘间数据均衡

        生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。

a.生成均衡计划

hdfs diskbalancer -plan hadoop103

b.执行均衡计划

hdfs diskbalancer -execute hadoop103.plan.json

c.查看当前均衡任务的执行情况

hdfs diskbalancer -query hadoop103

d.取消均衡任务

hdfs diskbalancer -cancel hadoop103.plan.json 二、HDFS集群的扩容与缩容 1.添加白名单

        表示在白名单的主机IP地址可以用来存储数据。配置白名单,可以尽量防止黑客恶意访问攻击。

a.步骤

1)在NameNode节点的/opt/module/hadoop-3.1.3/etc/hadoop目录下分别创建whitelist 和blacklist文件

(1)创建白名单

vim whitelist 在文件中加入需要加入白名单的IP地址 hadoop102 hadoop103

(2)创建黑名单

touch blacklist

2)在hdfs-site.xml配置文件中增加dfs.hosts配置参数

    dfs.hosts     /opt/module/hadoop-3.1.3/etc/hadoop/whitelist ​     dfs.hosts.exclude     /opt/module/hadoop-3.1.3/etc/hadoop/blacklist

3)分发配置文件whitelist,hdfs-site.xml

[example@hadoop104 hadoop]$ xsync hdfs-site.xml whitelist

4)第一次添加白名单必须重启集群,不是第一次,只需要刷新NameNode节点即可

5)在web浏览器上查看DN,http://hadoop102:9870/dfshealth.html#tab-datanode

6)二次修改白名单,增加hadoop104

[example@hadoop102 hadoop]$ vim whitelist 修改为如下内容 hadoop102 hadoop103 hadoop104

7)刷新NameNode

[example@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes Refresh nodes successful

8)在web浏览器上查看DN,http://hadoop102:9870/dfshealth.html#tab-datanode

2.添加新服务器

        随着数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。

1)环境准备

克隆一台主机105,修改IP地址和主机名称,删除新主机上的data和logs文件,配置无密码传输

2)步骤

        直接启动DataNode,105即可关联到集群

3.服务器间数据均衡

        在开发过程中,如果经常在hadoop102和hadoop104上提交任务,且副本数为2,由于数据本地性原则,就会导致hadoop102和hadoop104数据过多,hadoop103存储的数据量小。

另一种情况,就是新服役的服务器数据量比较少,需要执行集群均衡命令。

1.开启数据均衡命令

[example@hadoop105 hadoop-3.1.3]$ sbin/start-balancer.sh -threshold 10

        对于参数10,代表的是集群中各个节点的磁盘空间利用率相差不超过10%,可根据实际情况进行调整。

2.停止数据均衡命令

[example@hadoop105 hadoop-3.1.3]$ sbin/stop-balancer.sh

        注意:由于HDFS需要启动单独的Rebalance Server来执行Rebalance操作,所以尽量不要在NameNode上执行start-balancer.sh,而是找一台比较空闲的机器。

4.黑名单退役服务器

        黑名单:表示在黑名单的主机IP地址不可以用来存储数据。通常配置黑名单是用来退役服务器。

步骤:

1)编辑/opt/module/hadoop-3.1.3/etc/hadoop目录下的blacklist文件添加主机节点105(要退役的服务器就是105)

2)配置hdfs-site.xml

    dfs.hosts.exclude     /opt/module/hadoop-3.1.3/etc/hadoop/blacklist

3)分发配置文件blacklist,hdfs-site.xml

[example@hadoop104 hadoop]$ xsync hdfs-site.xml blacklist

4)第一次添加黑名单必须重启集群,不是第一次,只需要刷新NameNode节点即可

[example@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes Refresh nodes successful

5)检查Web浏览器,退役节点的状态为decommission in progress(退役中),说明数据节点正在复制块到其他节点

6)等待退役节点状态为decommissioned(所有块已经复制完成),停止该节点及节点资源管理器。注意:如果副本数是3,服役的节点小于等于3,是不能退役成功的,需要修改副本数后才能退役

7)如果数据不均衡,可以用命令实现集群的再平衡

三、HDFS故障的排除 1.NameNode故障处理

        如何NameNode的数据丢了,可以拷贝SecondaryNameNode中数据到原NameNode存储数据目录

[example@hadoop102 dfs]$ scp -r example@hadoop104:/opt/module/hadoop-3.1.3/data/dfs/namesecondary/* ./name/

        重新启动NameNode即可,但会丢失一部分数据

2.集群安全模式&磁盘修复

1)安全模式:文件系统只接受读数据请求,而不接受删除、修改等变更请求

2)进入安全模式场景

        a.NameNode在加载镜像文件和编辑日志期间处于安全模式;

        b.NameNode再接收DataNode注册时,处于安全模式

3)退出安全模式条件

        dfs.namenode.safemode.min.datanodes:最小可用datanode数量,默认0

        dfs.namenode.safemode.threshold-pct:副本数达到最小要求的block占系统总block数的百分比,默认0.999f。(只允许丢一个块)

        dfs.namenode.safemode.extension:稳定时间,默认值30000毫秒,即30秒

4)使用方法

(1)bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态) (2)bin/hdfs dfsadmin -safemode enter (功能描述:进入安全模式状态) (3)bin/hdfs dfsadmin -safemode leave (功能描述:离开安全模式状态) (4)bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态)

5)磁盘修复时,当数据块损坏,进入安全模式,可临时关闭安全模式,修改数据或进行维修即可

6)模拟等待安全模式

        在/opt/module/hadoop-3.1.3路径上,编辑一个脚本safemode.sh

[example@hadoop102 hadoop-3.1.3]$ vim safemode.sh ​ #!/bin/bash hdfs dfsadmin -safemode wait hdfs dfs -put /opt/module/hadoop-3.1.3/README.txt / ​ [atguigu@hadoop102 hadoop-3.1.3]$ chmod 777 safemode.sh ​ [atguigu@hadoop102 hadoop-3.1.3]$ ./safemode.sh

当安全模式结束后该命令执行



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3